Fondamentaux de l'ingénierie de prompts
Ingénierie de prompts (IP) est le processus de conception et d'optimisation des entrées textuelles afin d'orienter les grands modèles linguistiques (GML) vers des résultats de haute qualité et cohérents.
1. Définition de l'interface
Quoi : Elle sert d'interface principale de « programmation » pour l'intelligence artificielle générative.
Pourquoi : Elle déplace l'interaction de la prédiction brute et imprévisible de texte vers une exécution intentionnelle et structurée d'instructions.
2. Fondations des modèles
- Modèles de base LLM : Formés simplement à prédire le jeton suivant en se basant sur des relations statistiques dans de vastes jeux de données, en maximisant la probabilité $P(w_t | w_1, w_2, ..., w_{t-1})$.
- Modèles ajustés par instruction LLM : Affinés via l'apprentissage par renforcement avec retour humain (RLHF) pour suivre explicitement des instructions spécifiques et agir comme des assistants utiles.
3. Anatomie d'un bon prompt
Comment : Un bon prompt contient généralement :
- Instruction : L'action spécifique requise.
- Contenu principal : Les données cibles à traiter.
- Contenu secondaire : Paramètres, format ou contraintes (pour traiter la stochasticité et les hallucinations).
La réalité de la tokenisation
Les modèles ne lisent pas les mots ; ils traitent des tokens—des unités plus petites de séquences de texte utilisées pour calculer des probabilités statistiques.
TERMINALbash — 80x24
> Ready. Click "Run" to execute.
>
Question 1
What is the primary difference between a Base LLM and an Instruction-Tuned LLM?
Question 2
Why is the use of delimiters (like triple backticks or hashes) considered a best practice in prompt engineering?
Challenge: Tutor AI Constraints
Refining prompts for educational safety.
You are building a tutor-style AI for a startup. The model is currently giving away answers too quickly and sometimes making up facts when it doesn't know the answer.
Task 1
Implement "Chain-of-thought" prompting in the system message to prevent the AI from giving away answers immediately.
Solution:
Instruct the model to:
Instruct the model to:
"Work through the problem step-by-step before providing the final answer. Do not reveal the final answer until the student has attempted the steps."Task 2
Apply an "out" to prevent fabrications (hallucinations) when the AI doesn't know the answer.
Solution:
Add the explicit instruction:
Add the explicit instruction:
"If you do not know the answer based on the provided text or standard curriculum, state clearly that you do not know."